Kioxia nos muestra un SSD de 245 TB: así es el QLC con mayor capacidad del mundo
por Manuel Naranjo CloudFest 2026Kioxia ha aprovechado la entrevista con Mikel Aguirre, Director de Pronetic, en el CloudFest 2026 para enseñar con bastante claridad hacia dónde quiere llevar el almacenamiento empresarial en los próximos años. La conversación con Axel Stoermann (Chief Technology Officer y Vicepresidente de KIOXIA Europe GmbH) no giró únicamente alrededor de una cifra llamativa, aunque esa cifra ya basta por sí sola para captar la atención del sector: 245 TB en una sola unidad SSD QLC de su nueva serie LC9.
Más que un simple dato de capacidad, lo que la compañía puso sobre la mesa fue una visión mucho más amplia sobre cómo están cambiando la arquitectura de la memoria NAND, los formatos físicos en centros de datos y las necesidades reales de un mercado marcado por la inteligencia artificial y por la presión creciente sobre el consumo energético.
Ese SSD de 245 TB aparece así como la cara más visible de una transformación más profunda. No es solo una unidad de enorme capacidad, sino una forma de enseñar hasta dónde está llegando el desarrollo de la memoria flash en un momento en el que el almacenamiento ya no puede medirse únicamente por cuántos datos cabe guardar, sino también por cómo se mueven, con qué eficiencia y dentro de qué límites térmicos y energéticos.
Kioxia sitúa la arquitectura BiCS FLASH en el centro de su estrategia
Uno de los puntos clave de la entrevista fue la explicación de la evolución técnica de BiCS FLASH, la arquitectura que sostiene buena parte de la apuesta actual de la compañía. En sus generaciones más recientes, como la de 218 capas, Kioxia ha introducido la tecnología CBA, siglas de CMOS directly Bonded to Array.
La idea de fondo cambia de forma importante el proceso de fabricación. En lugar de construir la lógica CMOS y la matriz de celdas de memoria en una misma oblea de silicio, ambas partes se fabrican por separado y se unen después con una precisión nanométrica. Esa separación permite optimizar cada elemento de forma independiente. La consecuencia es doble: por un lado, se puede aumentar la densidad de bits, es decir, meter más capacidad en menos espacio; por otro, también se mejora de forma notable el rendimiento de entrada y salida de datos.
En la práctica, esa arquitectura ayuda a entender cómo es posible llegar a cifras como esos 245 TB sin que todo dependa solo de apilar más memoria. La clave está en combinar capacidad y rendimiento dentro de una estructura más afinada.
El reto ya no es solo crecer, sino hacerlo sin chocar con los límites físicos
La industria del NAND Flash sigue avanzando hacia memorias con más y más capas. El horizonte ya no se queda en cifras que hace pocos años parecían extremas, sino que mira hacia diseños de 300, 400 o más capas. Pero en ese crecimiento aparece un problema técnico que cada vez pesa más: el conocido como memory hole.
Para conectar las celdas apiladas en memoria 3D NAND, es necesario perforar agujeros verticales microscópicos a través de todas esas capas. Cuantas más capas hay, más difícil resulta mantener esos agujeros con una forma perfectamente uniforme de arriba abajo. El desafío no es menor, porque de esa precisión depende buena parte del comportamiento eléctrico y de la fiabilidad de la estructura completa.
Ante esa dificultad, Axel explicó una de las soluciones que ya se están consolidando: la arquitectura de múltiples niveles, o string stacking. En vez de intentar atravesar una estructura gigantesca de una sola vez, lo que se hace es apilar bloques más pequeños de capas y conectarlos entre sí.

Los centros de datos dejan atrás formatos pensados para el PC
Otro de los mensajes más claros de la entrevista fue el cambio de enfoque en los formatos de almacenamiento. Aunque el M.2 sigue siendo dominante en el mercado de consumo, Kioxia dejó claro que en el entorno de servidores ese formato presenta limitaciones importantes, especialmente en el terreno térmico.
La disipación de calor se ha convertido en uno de los factores decisivos a medida que aumentan tanto las capacidades como el rendimiento. Por eso, la compañía está impulsando los factores de forma EDSFF, como el E1.S para alta densidad y, muy especialmente para alcanzar estos 245 TB, el formato E3.L (Long), que ofrece el volumen físico necesario para los chips y la refrigeración que el estándar E3.S, más corto, no podría cubrir.
Estos diseños no solo permiten una mejor gestión térmica, sino que también abren la puerta a capacidades mucho más altas por unidad y facilitan la extracción en caliente dentro de los servidores, algo fundamental en infraestructuras donde detener el sistema no es una opción cómoda.
En paralelo, la transición hacia PCIe 5.0 marca otro salto importante. La nueva interfaz duplica el ancho de banda y permite mover el almacenamiento a velocidades secuenciales superiores a 10 o 12 GB/s. A eso se suma la preparación para CXL, un estándar con el que la memoria y el almacenamiento podrán comunicarse de forma todavía más directa con los procesadores. Visto en conjunto, lo que Kioxia enseñó en esta entrevista no fue solo una unidad concreta, sino el tipo de ecosistema en el que esa unidad tiene sentido.

La inteligencia artificial obliga a repensar el papel del SSD
La irrupción de la IA generativa y de los grandes modelos de lenguaje también apareció como uno de los motores principales de esta evolución. Según explicó el representante de la compañía, el problema ya no está únicamente en almacenar más datos, sino en ser capaz de suministrarlos a la velocidad que exigen las infraestructuras actuales.
Las GPUs que trabajan en entrenamiento y procesamiento de modelos de IA manejan volúmenes enormes de información a una velocidad tan alta que el almacenamiento puede convertirse en cuello de botella. Si los datos no llegan a tiempo, esos aceleradores quedan infrautilizados.
Por eso, el discurso de Kioxia alrededor de ese SSD de 245 TB va mucho más allá de la capacidad pura. Lo que la compañía plantea es que el almacenamiento de alta capacidad, alto rendimiento y baja latencia será una pieza central en la infraestructura que sostiene la nueva ola de IA.

Capacidad, consumo y coste total de propiedad
El último gran eje de la entrevista fue la eficiencia energética y el Coste Total de Propiedad (TCO). Aquí, el debate ya no se limita a si el SSD es más rápido que el disco duro mecánico, algo que lleva años asumido, sino a si la alta capacidad en flash está empezando a resultar más rentable también en almacenamiento masivo.
Kioxia defendió que el sector está entrando en un punto en el que los SSDs de gran capacidad pueden cruzar ese umbral. La razón no es solo el rendimiento, sino también el consumo eléctrico.
Visto así, el Kioxia LC9 QLC de 245 TB no es solo una demostración técnica. Es también una manera de resumir varias tensiones que hoy dominan el mercado: más capacidad, más velocidad, menos consumo y un formato adaptado a la realidad de los servidores modernos. En la entrevista con Mikel Aguirre, Axel Stoermann lo dejó claro al enseñar no solo un producto extremo, sino una dirección industrial muy concreta para el futuro del almacenamiento.
Fin del Artículo. ¡Cuéntanos algo en los Comentarios!



